Hadoop使用hdfs dfsadmin 您所在的位置:网站首页 hadoop 节点不一致 Hadoop使用hdfs dfsadmin

Hadoop使用hdfs dfsadmin

#Hadoop使用hdfs dfsadmin | 来源: 网络整理| 查看: 265

出现以下hdfs数据全为0的原因和不报告所有节点的信息,出在namenode和datanode启动id不一致,这导致的原因大部分都源于不止一次的进行Hadoop系统格式化操作。 问题截图↓ 在这里插入图片描述 在hadoop文件目录有你自己新创的dfs文件,每次格式化,里面name文件存储的namenode的clusterID就会发生改变,而datanode的clusterID在第一次格式化后就会确定下来,重复的格式化操作,会导致namenode的clusterID和datanode的clusterID不一致,这样就会导致hdfs不能识别datanode。 在这里插入图片描述 我们需要做的就是,在主节点namenode下找到/hadoop/name/curremt/这个目录,利用编辑器打开下面这个VERSION文件 主节点目录↓ 在这里插入图片描述 主节点VERSION文件↓ 在这里插入图片描述 然后将里面的clusterID这行复制,然后去到所有从节点的/hadoop/tmp/dfs/data/current/目录中,同样将目录中的VERSION文件利用编辑器打开,将其中clusterID用主节点的clusterID覆盖 从节点目录↓ 在这里插入图片描述 从节点VERSION文件↓ 在这里插入图片描述

本次笔记分享到此结束,谢谢大家阅读!!~~



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

      专题文章
        CopyRight 2018-2019 实验室设备网 版权所有